Vés al contingut

Unitats recurrents controlades

De la Viquipèdia, l'enciclopèdia lliure

Les unitats recurrents controlades (GRU) són un mecanisme de gating en xarxes neuronals recurrents, introduït el 2014 per Kyunghyun Cho i altres.[1] El GRU és com una memòria a llarg termini (LSTM) amb una porta oblidada,[2] però té menys paràmetres que LSTM, ja que no té una porta de sortida.[3] Es va trobar que el rendiment de GRU en determinades tasques de modelatge de música polifònica, modelatge de senyals de parla i processament de llenguatge natural era similar al de LSTM.[4][5] Els GRU van demostrar que el gating és realment útil en general i l'equip de Bengio va concloure que no hi havia cap conclusió concreta sobre quina de les dues unitats de gating era millor.[6]

Unitat recurrent Gated, versió totalment tancada.

Arquitectura

[modifica]

Hi ha diverses variacions a la unitat completa de control, amb l'obtenció feta utilitzant l'estat ocult anterior i el biaix en diverses combinacions, i una forma simplificada anomenada unitat mínima de control.[7]

Tipus 1.

L'operador denota el producte de Hadamard a continuació.

Unitat totalment controlada

[modifica]
Tipus 2.


Inicialment, per , el vector de sortida és

Les variables

  • : vector d'entrada
  • : vector de sortida
  • : vector d'activació candidat
  • : actualitza el vector de la porta
  • : reinicia el vector de la porta
  • , i : matrius de paràmetres i vector
Tipus 3.

Funcions d'activació

Són possibles funcions d'activació alternatives, sempre que això .

Es poden crear formes alternatives canviant i [8]

  • Tipus 1, cada porta depèn només de l'estat ocult anterior i del biaix.
  • Tipus 2, cada porta només depèn de l'estat ocult anterior.
  • Tipus 3, cada porta es calcula utilitzant només el biaix.


Referències

[modifica]
  1. Cho, Kyunghyun; van Merrienboer, Bart; Bahdanau, DZmitry; Bougares, Fethi; Schwenk, Holger Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation, 2014. arXiv: 1406.1078.
  2. Felix Gers; Jürgen Schmidhuber; Fred Cummins Proc. ICANN'99, IEE, London, 1999, 1999, pàg. 850–855. DOI: 10.1049/cp:19991218.
  3. «Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML» (en anglès), 27-10-2015. Arxivat de l'original el 2021-11-10. [Consulta: 18 maig 2016].
  4. Ravanelli, Mirco; Brakel, Philemon; Omologo, Maurizio; Bengio, Yoshua IEEE Transactions on Emerging Topics in Computational Intelligence, 2, 2, 2018, pàg. 92–102. arXiv: 1803.10225. DOI: 10.1109/TETCI.2017.2762739.
  5. Su, Yuahang; Kuo, Jay Neurocomputing, 356, 2019, pàg. 151–161. arXiv: 1803.01686. DOI: 10.1016/j.neucom.2019.04.044.
  6. Frontiers in Artificial Intelligence. DOI: 10.3389/frai.2020.00040.
  7. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling, 2014. 
  8. Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks.